weave.init()
が呼び出された後に自動的に追跡およびログに記録します。
トレース
LLMアプリケーションのトレースを中央データベースに保存することは、開発中も本番環境でも重要です。これらのトレースはデバッグに使用し、アプリケーションの改善に役立つデータセットとしても活用できます。 Weaveは自動的にcohere-pythonのトレースをキャプチャします。通常通りライブラリを使用できます。まずweave.init()
を呼び出します:

私たちはCohere
Client.chat
、AsyncClient.chat
、Client.chat_stream
、およびAsyncClient.chat_stream
メソッドをパッチして、LLM呼び出しを追跡できるようにします。独自のopsでラップする
Weave opsは結果をreproducibleにします。実験中にコードを自動的にバージョン管理し、入力と出力をキャプチャします。単に@weave.op()
でデコレートされた関数を作成してCohereのチャットメソッドを呼び出すだけで、Weaveが入力と出力を追跡します。以下は例です:

Model
を作成して実験を容易にする
多くの要素が動いている場合、実験の整理は困難です。Model
クラスを使用することで、システムプロンプトや使用しているモデルなど、アプリの実験的な詳細をキャプチャして整理できます。これにより、アプリの異なるイテレーションを整理して比較するのに役立ちます。
コードのバージョン管理と入力/出力のキャプチャに加えて、Model
はアプリケーションの動作を制御する構造化されたパラメータをキャプチャし、どのパラメータが最も効果的だったかを簡単に見つけることができます。Weave Modelsはserve
、およびEvaluation
と一緒に使用することもできます。
以下の例では、model
とtemperature
で実験できます。これらのいずれかを変更するたびに、新しいversionのWeatherModel
が得られます。
